查看原文
其他

因果推断,会对人工智能产生何种影响? | 社会科学报

任晓明 社会科学报社 2022-11-22


因果推断是近年来人工智能研究的热点之一,而作为其理论基础的因果观研究则较受冷落。虽然从亚里士多德到康德的那些哲学家们都对此提出过自己的见解,但其中较系统且最有影响的是英国哲学家大卫·休谟的因果观。休谟提出而有待解决的一些问题在人工智能研究中有望得到解决,对哲学和人工智能的发展可能产生深远影响。



原文 :《从人工智能视角看因果推断》

作者 | 四川大学哲学系教授   任晓明

图片 | 网络



休谟对因果性的深入思考


休谟对什么是因果关系作了细致的分析。他在《人性论》中指出:“我们记得看到过那种我们称之为火焰的东西,感觉到那种我们称之为热的感觉,这让我们心中想起过去的所有事例中都有这种恒常的联结,我们就说其中一个是原因,另一个是结果。并从另一个的存在推出这一个存在。”(Pearl & Mackenzie,2018)对休谟这一论述,图灵奖得主、人工智能专家朱迪亚·帕尔作了如此解读:因果关系是可以学习的心理习惯,它像幻觉一样虚幻,像巴甫洛夫条件反射那样短暂。看起来,休谟可能意识到这种解释面临的困难,因为他知道,公鸡打鸣总是和日出相联系,但公鸡打鸣并不导致日出。类似地,气压表的读数与下雨总是相联系的,但气压表的读数不会引起下雨,如此等等。怎么解释呢?他主张把这种关系称为虚假的相关性(spurious correlations),即“不含因果关系的相关性”。(cf. Pearl,2000)


那么,真正的相关性是什么呢?根据休谟的思想推测,真正的相关性是包含因果性的。这实际上就把因果性归于这种(真正的)相关性之中。为此,帕尔进一步指出,不仅因果性包含于相关性之中,而且因果性是相关性的极限,这就深化了休谟的因果性思想。


休谟探讨了因果性的认识论问题:什么样的经验模式使人们相信一种联系是“因果关系”?从人工智能角度,我们可以这样思考:如果说鸡鸣导致日出,这有什么结果呢?答案是:知道“什么导致什么”会对我们的行为产生一定影响。如果鸡叫可以让太阳升起,那我们可以让夜晚变短,或者早点叫醒公鸡,让它早点叫——比如,给它讲一个关于公鸡的最新笑话。这就隐含了对虚拟条件的反事实思考。休谟至少在早年没有意识到这一点,而人工智能研究者意识到了这一点。在他们看来,我们为什么不把鸡鸣看作日出的因?因为我们知道,假如哪天公鸡生病了,或者故意矫情不打鸣,而太阳照样升起。换言之,不管公鸡打鸣不打鸣,太阳都会升起。这是从人工智能视角对休谟所提问题的回答。



休谟对因果性的深入思考打击了当时人们对因果性研究的盲目乐观心态,再加上当时缺少适当的数学工具,因果性研究逐渐被边缘化,代之而起的是概率论和贝叶斯主义。但概率逻辑的研究面临许多困难和问题。贝叶斯主义遭遇的困难给我们的教训是:光看数据、事实不行,仅仅通过概率相关性思考难以解决多因素纠结的复杂问题。我们还需要利用因果推断来解决当代社会面临的紧迫问题。然而,在当今的学术界,那种只讨论相关性、以数据为中心的观念还根深蒂固,甚至“还阴魂不散”。(cf. Pearl & Mackenzie,2018)因此,关于因果推断的探索在科学和哲学研究中有极其重要的意义。


人类获得因果推断能力

分为三个渐进层级


有幸的是,近年来人工智能科学家对因果推断研究的热情与日俱增。他们发现,当前盛行的大部分机器学习技术都建基于相关关系而非因果关系。要实现强人工智能,必须使机器具有反事实思考的能力。若要使智能机器成为具有自我意识的智能体,就必须让机器学会问“为什么”,也就是要让机器学会因果推断,理解因果关系。帕尔认为,人类获得因果推断的能力可分为三个渐进的层级。第一层级是观察层级,概率相关性的概念在其中占支配地位,属于弱人工智能范围。第二层级是干预层级,对照实验在其中起着重要作用。例如,人类使用工具或通过实验去干预自然界。第三层级是想象或反事实层级,在这里,可以通过(虚拟世界中的)想象来获得对世界的深度理解。

  

在第一层级上,我们通过被动观察寻找相关规律,这种能力为许多动物和学习机器所共有。它只是要求我们基于被动观察作出预测,最典型的问题就是“如果我观察到了什么情况,会怎么样”,这里涉及的是相关性。我们经常收到不期而遇的推销信息,比如,上了一次淘宝,就会不断推送产品给你;去了趟妇产科医院,就不停给你推送母婴产品。再比如,当当网的销售人员可能会问:“购买逻辑书的顾客同时购买哲学书的可能性有多大?”销售人员的做法是:首先收集所有购书顾客行为的数据,然后筛选出购买逻辑书那些人的比例数据,再计算他们中购买哲学书的人数比例,据此测算“买逻辑书”与“买哲学书”两种行为之间的相关程度,通过测量相关程度的概率就可以得到结果。要完成这些任务,仅靠深度学习就可以了。但它的局限在于,这只不过是在相关性层级上运行,它由观察结果驱动,致力于通过曲线拟合得出一个函数。即便拟合的数据越来越多,拟合的精度不断提高,智能机器对因果性质的可理解性仍然十分有限,且缺乏灵活性和适应性,需要上升到第二层级。

  


第二层级最典型的问题是“如何做”。其中的两个要件是观察和干预,做对照实验。在干预层级上可以提出如下问题:如果我干预某一过程,会发生什么情况?比如,如果我把逻辑书的价钱翻倍,哲学书的销售额会有什么变化?如果我吃了板蓝根片,是不是可以治疗新冠肺炎?提出和回答这类问题就需要一种不局限于数据的新知识,掌握一种新的认知能力——干预。机器学习中的干预是一种控制因素,是一种深度理解,它比第一层级深入一步,但还不够。

  

第三层级是反事实活动层级,它主要涉及反思、想象、理解等认知活动。典型问题是:假如我当时做了什么,会怎么样?为什么?比如,我们可以问:如果图灵在二战中没有破译德军的密码,战争能在1945年取得胜利吗?事实上,图灵在二战中破译了德军的密码,使战争至少提前两年取得胜利。这种认知活动让我们能够想象并预测一种反事实状况。这就能够回答仅仅靠干预无法回答的问题,进而有助于解决人工智能的可理解性问题。


因果推断研究对人工智能的影响


我们认为,帕尔把反事实放在因果之梯的顶层,把它视为人类意识进化的最高阶段,实际上开启了因果推断研究的新阶段。但他的思想无疑受到休谟的启发。如上所述,在《人性论》第3章“论知识与概然推断”中,休谟探讨了两事物间的恒常联结,给出一个因果关系的“规则性”(regularity)定义,但在后来出版的《人类理解研究》中,他明确指出:“凡与前一个对象类似的一切对象都和与后一个对象类似的那些对象处在类似的先行关系和接近关系中。或者,换言之,假如没有前一个对象,那么后一个对象就不可能存在。”(Pearl & Mackenzie,2018)这是休谟对因果性所下的反事实定义。显然,这个新定义比规则性定义更为深刻。因为这种反事实思维可以把人类智能、动物智能与机器智能区分开来,这就触及“强人工智能”是否可实现的关键问题了。

  


在机器学习的研究中,帕尔逐渐意识到,只有当你能够教会机器人理解某个课题,才能说得上真正理解了它,而智能机器缺乏对因果关系的理解,这也许是阻碍其实现相当于人类水平智能的最大障碍。因果推断研究对人工智能的最大影响就是使强人工智能的实现有了一点点现实的可能性。(cf. Pearl & Mackenzie,2018)因为强人工智能面临的最大一道坎是可理解性,而因果推断研究有可能成为解决这一问题的突破口。但是,帕尔在这个问题上过于乐观了,他所谓的“因果革命”或“新科学”并不像他想象的那样无所不能。例如,微观世界中以量子纠缠为核心特征的量子理论带来了因果观的巨大改变,其因果性不同于以往我们所认识到的任何形式的因果性,它具有统计的性质,而要解决其中的因果性悖论等难题,目前的因果推断研究是无能为力的。可见,目前受到广泛追捧的因果推断研究也是有限度的。


文章为社会科学报“思想工坊”融媒体原创出品,原载于社会科学报第1744期第5版,未经允许禁止转载,文中内容仅代表作者观点,不代表本报立场。


拓展阅读

视域 | 人工智能创作,正在开启创作领域新时代

视域 | 人工智能发展,还得靠“心灵哲学”打基础


您可能也对以下帖子感兴趣

文章有问题?点此查看未经处理的缓存